Text copied to clipboard!

Titre

Text copied to clipboard!

Développeur Spark

Description

Text copied to clipboard!
Nous recherchons un Développeur Spark talentueux et motivé pour rejoindre notre équipe de développement de données. En tant que Développeur Spark, vous serez responsable de la conception, du développement et de l’optimisation de pipelines de traitement de données à grande échelle en utilisant Apache Spark. Vous travaillerez en étroite collaboration avec les équipes de science des données, d’ingénierie des données et d’architecture pour garantir la performance, la fiabilité et la scalabilité des solutions de traitement de données. Le candidat idéal possède une solide expérience en développement avec Apache Spark, une bonne compréhension des systèmes distribués et une capacité à résoudre des problèmes complexes liés à la manipulation de données massives. Vous devez être à l’aise avec les langages de programmation tels que Scala, Java ou Python, et avoir une bonne connaissance des bases de données relationnelles et NoSQL. Vos missions incluront la création de pipelines de données robustes, l’optimisation des performances des jobs Spark, la gestion des flux de données en temps réel et batch, ainsi que la participation à la conception de l’architecture des systèmes de données. Vous serez également impliqué dans l’analyse des besoins métiers, la rédaction de documentation technique et la mise en œuvre de bonnes pratiques de développement. Ce poste offre une opportunité unique de travailler sur des projets innovants dans un environnement dynamique et stimulant. Si vous êtes passionné par les technologies Big Data et que vous souhaitez contribuer à des solutions à fort impact, ce poste est fait pour vous.

Responsabilités

Text copied to clipboard!
  • Développer et maintenir des pipelines de données avec Apache Spark
  • Optimiser les performances des traitements de données distribués
  • Collaborer avec les équipes de données pour comprendre les besoins métiers
  • Assurer la qualité et la fiabilité des données traitées
  • Participer à la conception de l’architecture des systèmes de données
  • Mettre en œuvre des solutions de traitement en temps réel et batch
  • Documenter les processus et les solutions développées
  • Effectuer des revues de code et appliquer les bonnes pratiques de développement
  • Surveiller et résoudre les problèmes de performance
  • Contribuer à l’amélioration continue des outils et processus de données

Exigences

Text copied to clipboard!
  • Expérience confirmée avec Apache Spark (Core, SQL, Streaming)
  • Maîtrise de Scala, Java ou Python
  • Connaissance des systèmes distribués et du traitement de données massives
  • Expérience avec des bases de données relationnelles et NoSQL
  • Compréhension des architectures Big Data (Hadoop, Kafka, etc.)
  • Capacité à écrire un code propre, maintenable et performant
  • Expérience avec des outils de versioning comme Git
  • Bonne communication et esprit d’équipe
  • Capacité à travailler dans un environnement agile
  • Diplôme en informatique, ingénierie ou domaine connexe

Questions potentielles d'entretien

Text copied to clipboard!
  • Quelle est votre expérience avec Apache Spark ?
  • Quels langages de programmation maîtrisez-vous ?
  • Avez-vous déjà travaillé sur des projets Big Data en production ?
  • Comment optimisez-vous les performances d’un job Spark ?
  • Quelle est votre expérience avec les bases de données NoSQL ?
  • Avez-vous déjà utilisé Kafka ou Hadoop ?
  • Comment gérez-vous les erreurs dans un pipeline de données ?
  • Êtes-vous à l’aise avec le travail en équipe agile ?
  • Pouvez-vous décrire un projet Spark que vous avez mené ?
  • Comment assurez-vous la qualité des données traitées ?